支持向量回归(常缩写为 SVR):一种基于支持向量机思想的回归方法,用于预测连续数值。它通过在特征空间中寻找一个“尽量平坦”的函数,并在允许的误差范围内(常用 ε-不敏感损失)拟合数据;同时借助核函数可处理非线性关系。除回归含义外,“regression”在其他语境也可指“回归/倒退”(此处取机器学习中的回归)。
/səˈpɔːrt ˈvɛktər rɪˈɡrɛʃən/
SVR works well when you have few training samples.
当训练样本较少时,SVR 往往表现良好。
Using a radial basis function kernel, support vector regression can model nonlinear trends while controlling overfitting through regularization.
使用径向基函数核时,支持向量回归可以拟合非线性趋势,并通过正则化控制过拟合。
“Support vector regression”由 support vector(支持向量)与 regression(回归)组成,源自支持向量机(SVM)的理论框架。支持向量的概念与统计学习理论密切相关,常与 Vapnik 等人的工作关联;SVR 可视为把 SVM 的“间隔最大化/正则化”思想从分类扩展到连续值预测。